去年9月OpenAI CEO Sam Altman在一份內部備忘錄中提出一項計畫:在 2033 年前打造高達 250GW 的計算能力。這一用電規模已逼近一個國家的總用電,約等同於支撐整個印度 15 億人口的電力消耗。AI訓練與推理需要大量電力外媒一則報導據此指出:支撐 250GW 運算能力所需的 GPU 數量將達到 6,000 萬顆,以現行兩年一換代的經濟壽命推算,OpenAI 必須每年採購 3,000 萬顆 GPU 才能維持運作。極高的電力密度和運轉負載,已使 AI 訓練與推理成為全球成長最快的能源消耗來源之一。資料中心也是耗電大王同時,龐大用電與龐大的晶片需求已不再只是 OpenAI 的課題。全球大型雲服務商,包括 Microsoft Azure、Amazon AWS 與 Google Cloud,也正投入比以往任何時期更大規模的資料中心擴建。業界普遍預期,這些資料中心在未來十年將與鋼鐵、水泥與煉油產業並列全球主要耗電者,特別是 AI 伺服器全年無休,以推論與訓練為核心的運算模式,使資料中心用電急速增長。在這波 AI 電力競賽下,冷卻需求成為另一個被放大的環節。資料中心規模暴增,使得大量冷卻用水與裝置能耗拉高城市負荷,也造成局部電網品質下降與電價波動。多個國家已警告,資料中心集中區域可能面臨電力緊縮,部分地區甚至提前限制用電或推遲新資料中心建設,以避免影響一般家庭與企業的用電需求。GPU晶片生產能耗極大報導進一步指出,AI 晶片需求的爆炸式成長,使全球半導體供應鏈在啟動許多廠房,其中包括台積電與三星的多項先進製程基地。以台積電為例,Fab 25 單廠的用電量即需至少 1GW,可支撐約 75 萬戶台灣家庭;每日用水量約 10 萬公噸,相當於近 20 萬名台中市民的日常用水。台積電向外投資設廠除地緣政治之因素外,台灣的水電供給能否持續當是一個隱秘的考量。而今,隨著美國、中國、歐洲與東南亞等市場相繼投入 AI 基礎建設,科技競爭也逐漸演變成能源與資源競賽。AI 擴張與全球能源需求報導指出,AI 用電增長速度可能在未來十年內超過再生能源新增速度,電力供需缺口、區域性停電風險與電網負載問題將成為新常態。除了用電增長外,GPU 製造所需的稀土、金屬、超純水與能源,都對地球提出更高的負荷。因而,這篇報導最後強調,當人們不斷追求更大的模型、更高的算力與更密集的 GPU 部署時,除了思考「AI 還需要多少電」,更必須面對關於地球資源的問題——「自然資源究竟還能支撐多少人工智慧的擴張」? (芯聞眼)